
Scaling Law遭遇瓶颈,OpenAI被曝押注智能体“Operator”
Scaling Law遭遇瓶颈,OpenAI被曝押注智能体“Operator”继Anthropic之后,OpenAI也要接管人类电脑了?!
继Anthropic之后,OpenAI也要接管人类电脑了?!
几十万人关注,一发表即被行业大佬评为“这是很长时间以来最重要的论文”。
最近几天,AI 社区都在讨论同一篇论文。 UCSD 助理教授 Dan Fu 说它指明了大模型量化的方向。
昨天,The Information 的一篇文章让 AI 社区炸了锅。
Ilya终于承认,自己关于Scaling的说法错了!现在训练模型已经不是「越大越好」,而是找出Scaling的对象究竟应该是什么。他自曝,SSI在用全新方法扩展预训练。而各方巨头改变训练范式后,英伟达GPU的垄断地位或许也要打破了。
半年两次大融资后,这家具身智能黑马再次获得融资!作为柏睿资本首次投资的具身智能企业,千寻智能不仅拥有出身自伯克利系联创,在技术、硬件、商业化上,也让人极有信心。
奥特曼在OpenAI伦敦开发者日上的最新采访,终于完整释出! 40分钟的采访过程中,奥特曼除了聊OpenAI未来模型发展方向、Agent、和最尊敬的竞争对手(就是此前碎片式走漏风声的几个问题)外,还就Scaling Law、半导体供应链、基础模型竞争成本、该雇佣什么年龄段的员工等十多个问题进行了快问快答。
2022年诞生的ChatGPT,已经在相当程度上实现了大模型的Scaling law(尺度定律)和通用能力涌现。
o1 作为 OpenAI 在推理领域的最新模型,大幅度提升了 GPT-4o 在推理任务上的表现,甚至超过了平均人类水平。o1 背后的技术到底是什么?OpenAI 技术报告中所强调的强化学习和推断阶段的 Scaling Law 如何实现?
本文是一篇发表在 NeurIPS 2024 上的论文,单位是香港大学、Sea AI Lab、Contextual AI 和俄亥俄州立大学。论文主要探讨了大型语言模型(LLMs)的词表大小对模型性能的影响。